查看原文
其他

做 SQL 性能优化 真是让人干瞪眼

康熙 终码一生 2022-11-28

点击“终码一生”,关注,置顶公众号

每日技术干货,第一时间送达!



在大数据中使用SQL计算是很方便的,开发成本比较低,跑得慢时就要去优化SQL,但常常碰到让人干瞪眼的情况。


比如,存储过程中有三条大概形如这样的语句执行得很慢:


select a,b,sum(x) from T group by a,b where …;
select c,d,max(y) from T group by c,d where …;
select a,c,avg(y),min(z) from T group by a,c where …;


这里的T是个有数亿行的巨大表,要分别按三种方式分组,分组的结果集都不大。


分组运算要遍历数据表,这三句SQL就要把这个大表遍历三次,对数亿行数据遍历一次的时间就不短,何况三遍。


这种分组运算中,相对于遍历硬盘的时间,CPU计算时间几乎可以忽略。如果可以在一次遍历中把多种分组汇总都计算出来,虽然CPU计算量并没有变少,但能大幅减少硬盘读取数据量,就能成倍提速了。


如果SQL支持类似这样的语法:


from T --数据来自T表
 select a,b,sum(x) group by a,b where … --遍历中的第一种分组
 select c,d,max(y) group by c,d where … --遍历中的第二种分组
 select a,c,avg(y),min(z) group by a,c where …; --遍历中的第三种分组


能一次返回多个结果集,那就可以大幅提高性能了。


可惜, SQL没有这种语法,写不出这样的语句,只能用个变通的办法,就是用group a,b,c,d的写法先算出更细致的分组结果集,但要先存成一个临时表,才能进一步用SQL计算出目标结果。SQL大致如下:


create table T_temp as select a,b,c,d,
     sum(case when … then x else 0 end) sumx,
     max(case when … then y else null end) maxy,
     sum(case when … then y else 0 end) sumy,
     count(case when … then 1 else null end) county,
     min(case when … then z else null end) minz
     group by a,b,c,d;
 select a,b,sum(sumx) from T_temp group by a,b where …;
 select c,d,max(maxy) from T_temp group by c,d where …;
 select a,c,sum(sumy)/sum(county),min(minz) from T_temp group by a,c where …;


这样只要遍历一次了,但要把不同的WHERE条件转到前面的case when里,代码复杂很多,也会加大计算量。而且,计算临时表时分组字段的个数变得很多,结果集就有可能很大,最后还对这个临时表做多次遍历,计算性能也快不了。大结果集分组计算还要硬盘缓存,本身性能也很差。


还可以用存储过程的数据库游标把数据一条一条fetch出来计算,但这要全自己实现一遍WHERE和GROUP的动作了,写起来太繁琐不说,数据库游标遍历数据的性能只会更差!


只能干瞪眼!


TopN运算同样会遇到这种无奈。举个例子,用Oracle的SQL写top5大致是这样的:


select * from (select x from T order by x desc) where rownum<=5


表T有10亿条数据,从SQL语句来看,是将全部数据大排序后取出前5名,剩下的排序结果就没用了!大排序成本很高,数据量很大内存装不下,会出现多次硬盘数据倒换,计算性能会非常差!


避免大排序并不难,在内存中保持一个5条记录的小集合,遍历数据时,将已经计算过的数据前5名保存在这个小集合中,取到的新数据如果比当前的第5名大,则插入进去并丢掉现在的第5名,如果比当前的第5名要小,则不做动作。这样做,只要对10亿条数据遍历一次即可,而且内存占用很小,运算性能会大幅提升。


这种算法本质上是把TopN也看作与求和、计数一样的聚合运算了,只不过返回的是集合而不是单值。SQL要是能写成这样,就能避免大排序了:

 

select top(x,5) from T


然而非常遗憾,SQL没有显式的集合数据类型,聚合函数只能返回单值,写不出这种语句!


不过好在全集的TopN比较简单,虽然SQL写成那样,数据库却通常会在工程上做优化,采用上述方法而避免大排序。所以Oracle算那条SQL并不慢。


但是,如果TopN的情况复杂了,用到子查询中或者和JOIN混到一起的时候,优化引擎通常就不管用了。比如要在分组后计算每组的TopN,用SQL写出来都有点困难。Oracle的SQL写出来是这样:


select * from (select y,x,row_number() over (partition by y order by x desc) rn from T) where rn<=5


这时候,数据库的优化引擎就晕了,不会再采用上面说的把TopN理解成聚合运算的办法。只能去做排序了,结果运算速度陡降!


假如SQL的分组TopN能这样写:


select y,top(x,5) from T group by y


把top看成和sum一样的聚合函数,这不仅更易读,而且也很容易高速运算。


可惜,不行。


还是干瞪眼!


关联计算也是很常见的情况。以订单和多个表关联后做过滤计算为例,SQL大体是这个样子:


select o.oid,o.orderdate,o.amount
from orders o
    left join city ci on o.cityid = ci.cityid
    left join shipper sh on o.shid=sh.shid
    left join employee e on o.eid=e.eid
    left join supplier su on o.suid=su.suid
where ci.state='New York' 
    and e.title='manager' 
    and ...


订单表有几千万数据,城市、运货商、雇员、供应商等表数据量都不大。过滤条件字段可能会来自于这些表,而且是前端传参数到后台的,会动态变化。


SQL一般采用HASH JOIN算法实现这些关联,要计算 HASH 值并做比较。每次只能解析一个JOIN,有N个JOIN要执行N遍动作,每次关联后都需要保持中间结果供下一轮使用,计算过程复杂,数据也会被遍历多次,计算性能不好。


通常,这些关联的代码表都很小,可以先读入内存。如果将订单表中的各个关联字段预先做序号化处理,比如将雇员编号字段值转换为对应雇员表记录的序号。那么计算时,就可以用雇员编号字段值(也就是雇员表序号),直接取内存中雇员表对应位置的记录,性能比HASH JOIN快很多,而且只需将订单表遍历一次即可,速度提升会非常明显!


也就是能把SQL写成下面的样子:


select o.oid,o.orderdate,o.amount
from orders o
    left join city c on o.cid = c.# --订单表的城市编号通过序号#关联城市表
    left join shipper sh on o.shid=sh.# --订单表运货商号通过序号#关联运货商表
    left join employee e on o.eid=e.# --订单表的雇员编号通过序号#关联雇员表
    left join supplier su on o.suid=su.#--订单表供应商号通过序号#关联供应商表
where ci.state='New York' 
    and e.title='manager' 
    and ...


可惜的是,SQL 使用了无序集合概念,即使这些编号已经序号化了,数据库也无法利用这个特点,不能在对应的关联表这些无序集合上使用序号快速定位的机制,只能使用索引查找,而且数据库并不知道编号被序号化了,仍然会去计算 HASH 值和比对,性能还是很差!


有好办法也实施不了,只能再次干瞪眼!


还有高并发帐户查询,这个运算倒是很简单:


select id,amt,tdate,… from T
where id='10100' 
    and tdate>= to_date('2021-01-10','yyyy-MM-dd')
    and tdate<to_date('2021-01-25','yyyy-mm-dd')
    and="" …=""


在T表的几亿条历史数据中,快速找到某个帐户的几条到几千条明细,SQL写出来并不复杂,难点是大并发时响应速度要达到秒级甚至更快。为了提高查询响应速度,一般都会对 T 表的 id 字段建索引:


create index index_T_1 on T(id)


在数据库中,用索引查找单个帐户的速度很快,但并发很多时就会明显变慢。原因还是上面提到的SQL无序理论基础,总数据量很大,无法全读入内存,而数据库不能保证同一帐户的数据在物理上是连续存放的。硬盘有最小读取单位,在读不连续数据时,会取出很多无关内容,查询就会变慢。高并发访问的每个查询都慢一点,总体性能就会很差了。在非常重视体验的当下,谁敢让用户等待十秒以上?!


容易想到的办法是,把几亿数据预先按照帐户排序,保证同一帐户的数据连续存储,查询时从硬盘上读出的数据块几乎都是目标值,性能就会得到大幅提升。


但是,采用SQL体系的关系数据库并没有这个意识,不会强制保证数据存储的物理次序!这个问题不是SQL语法造成的,但也和SQL的理论基础相关,在关系数据库中还是没法实现这些算法。


那咋办?只能干瞪眼吗?


不能再用SQL和关系数据库了,要使用别的计算引擎。


开源的集算器SPL基于创新的理论基础,支持更多的数据类型和运算,能够描述上述场景中的新算法。用简单便捷的SPL写代码,在短时间内能大幅提高计算性能!


上面这些问题用SPL写出来的代码样例如下:

 

  • 一次遍历计算多种分组


  • 用聚合的方式计算Top5


全集Top5(多线程并行计算)



分组Top5(多线程并行计算)


  • 用序号做关联的SPL代码:


系统初始化


查询


  • 高并发帐户查询的SPL代码:


数据预处理,有序存储


帐户查询



除了这些简单例子,SPL还能实现更多高性能算法,比如有序归并实现订单和明细之间的关联、预关联技术实现多维分析中的多层维表关联、位存储技术实现上千个标签统计、布尔集合技术实现多个枚举值过滤条件的查询提速、时序分组技术实现复杂的漏斗分析等等。


来源:blog.csdn.net/qq_35387940/article/details/127743772


PS:防止找不到本篇文章,可以收藏点赞,方便翻阅查找哦。




往期推荐



一行代码搞定Http请求,强得离谱

重磅!Spring Boot 3.0 正式发布,这些新特性真的强!!

马斯克用 26 天重置 Twitter:裁了近八成工程师、整顿系统架构!

别再使用 JWT 作为 Session 系统!问题重重且很危险。

Java + lua = 王炸!!

GitHub前CTO:微服务是最大的架构错误!网友:这不是刚改完吗

公司新来一个同事,把优惠券系统设计的炉火纯青!


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存